首页> 外文OA文献 >Speaker Diarization using Deep Recurrent Convolutional Neural Networks for Speaker Embeddings
【2h】

Speaker Diarization using Deep Recurrent Convolutional Neural Networks for Speaker Embeddings

机译:使用深度递归卷积神经网络的扬声器二值化   用于扬声器嵌入

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

In this paper we propose a new method of speaker diarization that employs adeep learning architecture to learn speaker embeddings. In contrast to thetraditional approaches that build their speaker embeddings using manuallyhand-crafted spectral features, we propose to train for this purpose arecurrent convolutional neural network applied directly on magnitudespectrograms. To compare our approach with the state of the art, we collect andrelease for the public an additional dataset of over 6 hours of fully annotatedbroadcast material. The results of our evaluation on the new dataset and threeother benchmark datasets show that our proposed method significantlyoutperforms the competitors and reduces diarization error rate by a largemargin of over 30% with respect to the baseline.
机译:在本文中,我们提出了一种说话人差异化的新方法,该方法采用深度学习架构来学习说话人嵌入。与使用手工手工制作的频谱特征构建其扬声器嵌入的传统方法相反,我们建议为此目的训练直接应用于幅度谱图的当前卷积神经网络。为了将我们的方法与最新技术进行比较,我们向公众收集并发布了超过6小时的带有完整注释的广播资料的附加数据集。我们对新数据集和其他三个基准数据集的评估结果表明,我们提出的方法明显优于竞争对手,并且相对于基线,将误差率降低了30%以上。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号